互联网大厂的黑话文学,已经蔓延到AI圈了
咱们先看一段话:
眼熟吗?这和张一鸣怒斥黑话文学盛行时,引用公司内部文件中一些员工撰写的报告摘录基本一回事。
看似内容一大堆,其实什么也没说。
黑话最盛行的当属互联网行业,这些莫名其妙的属于对于汇报、晋升、面试而言似乎一时之间成了无往不利的神器。
这种黑话也开始蔓延到新能源车这边,什么“Vortex情感涡流”“多模态空间交互”“太空驾驶座舱”。
刀片电池、麒麟电池各种名称的电池,五屏三维空间交互等等,虽然还没像互联网黑话那样惹人嫌,但哪怕把业内专家请过来看,一时间还很难理解。
风头更盛的AI大模型也不例外,各种新闻、访谈、演讲中都充斥着大量名词术语,看得人眼花缭乱。
不过好在,AI这块还算不上黑话,实际上都是一些专有名词的缩写。
即便如此,把AI、AGI、GAI放在一起,一样还是头晕眼花。
咱们这篇文章,就专门盘点一下各种常用词都是什么意思。
首先是最基础的一些术语,如AI代表人工智能,AGI代表人工通用智能等。周鸿祎在sora发布后表示AGI会提前到来,说的就是这个。
接下来就是一些模型类型,比如目前大模型几乎都是基于Transformer架构。基于这种架构,又开发出很多专注一些垂直领域的模型,像对话模型GPT3、绘画模型DALL-E2。
有一些技术和数据术语,可能在阅读大模型文献的时候会经常遇到,比如判断机器学习能力时候用到的F1值,训练这个大模型用了多少参数等,像LLAMA2-13B、LLAMA2-70B中的"xxB"就是参数,同一个模型参数量不同,性能也不一样。
还有一些经常看到,但与大模型技术不太相关的。比如大模型是一个黑箱,没人知道它的数据是怎么生成的,所以大模型的伦理问题就很值得关注,如何让大模型遵循人类价值就是AI对齐。像不久前谷歌大模型生成黑皮马斯克,就是对齐过头了。
硬件也是研究大模型不得不提到的,GPU是目前比较主流的训练和搭载大模型用的芯片,我们经常讨论的英伟达就是发明GPU的公司。而谷歌针对计算也发布了特别的芯片TPU。
最后就是一些人物、会议等,我们常常会看到某某大佬对xx做出评价,进行预言,其实翻来覆去就那几位。比如被誉为卷积神经网络之父的Yann LeCun,前不久在怼sora不算是世界模型。
而最近因为开设免费的AI课程处于舆论浪尖的360CEO周鸿祎,早年因为经常穿一件红色polo衫,到处“怼人”被称为红衣大炮。
一些AI顶会和一些学术期刊也非常值得关注,往往会议中出现的技术会引领行业未来的发展,会议发布的Fellow也能带你认识那些行业领军人物。
而且,顶会上的一些论文也常常是大家争相阅读的对象。比如《Attention Is All You Need》这一论文,在2017年的NeurIPS上,该论文介绍了Transformer模型,对目前流行的大模型影响颇深,堪称里程碑式的文章。
如果仔细看一下大型模型的黑话,我们会发现它们大多数是学术词汇或英文缩写,并没有刻意创造的“新概念”。
如果记不住这些黑话怎么办?那就不要记,遇到不熟悉的术语时再查就可以了。
能不能看懂黑话,重点在于你有没有见过。不论是中文还是英文的大模型黑话,如果你不是这个领域的从业者,即便是母语者也不一定能够理解。
黑话的本质是为了降低信息交流的成本。有些概念没有合适的中文翻译,使用英文或英文缩写会更加方便。在这种情况下,人们通常不会反感这些黑话。
例如,“AI”是“人工智能”的缩写,虽然它传达了相同的意思,但“AI”比“人工智能”在打字时更加方便。尽管这可能对Adobe的Illustrator不太公平。
人们对于互联网大厂的黑话态度也随时间而发生变化,从最初的趋之若鹜到现在的避之不及,其根本原因在于这些黑话是否有实质性的含义。
有些黑话是空洞的,没有实质性的技术或能力支撑,却试图通过创造新词汇来构建壁垒。另一些则是为了构建话语权,故意使用专业术语来描述一些常见的内容,好忽悠行业外的人。
目前,大型模型领域的黑话还处于一个基础阶段,希望未来不会出现令人反感的废话。
关于「新硅NewGeek」:我们以AI为圆心,追踪科技领域的方方面面,努力用最简单的方式阐述技术是如何改变世界。敬请关注。